尽管在利用深度学习来自动化胸部X光片解释和疾病诊断任务方面取得了进展,但顺序胸部X射线(CXR)之间的变化受到了有限的关注。监测通过胸部成像可视化的病理的进展在解剖运动估计和图像注册中构成了几个挑战,即在空间上对齐这两个图像并在变化检测中对时间动力学进行建模。在这项工作中,我们提出了Chexrelnet,这是一种可以跟踪两个CXR之间纵向病理关系的神经模型。Chexrelnet结合了局部和全球视觉特征,利用图像间和图像内的解剖信息,并学习解剖区域属性之间的依赖性,以准确预测一对CXR的疾病变化。与基准相比,胸部成像组数据集的实验结果显示下游性能提高。代码可从https://github.com/plan-lab/chexrelnet获得
translated by 谷歌翻译